雖然在23天斷賽了,但是我還是完成了一個30天的紀錄,在30天沒備稿的情形下,在第10天以後沒有了實戰程式碼是因為,我發現我使用的transformer模型all-MiniLM-L6-v2雖然迅速記憶體需求也不大,但是怎麼訓練效果都很差,開始萌生使用Qwen3-Embedding-0.6B來做訓練的想法,可是因為記憶體不夠,所以跑不起來,也就無疾而終了(嘆氣。
另外,在整個系列裡面最多點閱率的是"第20天:四大痛點解決方案評估"、"第6天:LangGraph基礎與EmoRAG Graph設計"、"第4天:向量檢索與情緒嵌入",很感謝大家對這些主題的喜歡,寫了這幾天的文章我想給個結論,就是要做端到端的模型訓練首先要把硬體環境考慮清楚,再去實作,還有先熟悉市場上有那些大模型可以拿來直接使用,他們的大小特性都要先做好功課,才能不手忙腳亂。
以下是讀者可能的疑問
Q1:
使用langgraph架構的原因
Answer:
只是因為本人也是langchain新手,得知套框架可以更好的管理和AI對話的對話紀錄因此納入,也因為是新手所以也沒有寫出詳細的基礎,在結束這一系列文章會立馬著手研究langchain,後續也會在不斷改正一些錯誤和增加內容。
Q2:
在第23天捨棄原本主題"第23天:EmoRAG結合AI編程助手競爭優勢總結",改成knowledge graph RAG這個主題的原因
Answer:
原本的想法是使用agent os自己製作AI編成助手,可是時間不夠去摸索,加上使用的transformer模型all-MiniLM-L6-v2跑出來的準確度低於預期,忍痛捨棄。相繼看到knowledge graph RAG這個技術,想說可以拿來增進EmoRAG的準確度,讓一段影片的每章節圖可以透過集群的方式去分類他們的情緒差異,在語音轉文檔後,也可以透過畫出知識關聯圖的方式更好的理解語意,因此納入這個主題。
Q3:
EmoRAG是鑑別式AI還是生成式AI?
Answer:
目標是先由鑑別式AI判斷情緒,然後再圖片和文字共同的向量嵌入庫中做比對找到最相近的情緒結果,然後由提示工程的生成式AI給出回覆。
最近又有新的RAG技術--REFRAG
🔹 RAG 是「檢索 + 拼接」的策略,
🔹 REFRAG 是「壓縮 + 篩選 + 精選展開」的智慧化升級版。
REFRAG 透過強化學習讓系統學會「什麼內容才真的重要」,
用更少的 token 處理更多的資訊,
在速度、成本與精度之間達到更高的平衡。
總的來說,技術日新月異,期待可以透過一點入門的觀念,當成不斷學習的燃料持續精進學習。